Supercomputing: Mooresches Gesetz verliert an Bedeutung

IBM ist der unumschränkte Branchenprimus in der neuen Top-500-Liste. Doch weit spannender ist die Frage, wohin das High Performance Computing (HPC) steuert.

Zunächst einmal müssen alle anderen frustriert zur Kenntnis nehmen, dass kaum Luft für die Konkurrenz von Big Blue übrig bleibt. Zumindest legt diesen Eindruck die auf der Internationalen Supercomputing Conference (ISC) in Heidelberg vorgestellte Liste nahe: Mehr als die Hälfte aller weltweit verkauften High Performance Computing Systeme (HPC) stammen von IBM, mit mehr als deutlichem Abstand folgen Hewlett Packard und SGI.

Zudem dominiert Big Blue auch das europäische Ranking, mit dem leistungsfähigsten Cluster im Barcelona Supercomputer Center. Dass Mare Nostrum in einer kirchlich anmutenden Kathedrale installiert ist, verschafft IBM zusätzliche PR-Resonanz. Zu den Fakten gehört auch, dass der letztjährige Spitzenreiter NEC nicht mehr mithalten kann und mit der am Hoch-leistungsrechenzentrum in Stuttgart installierten SX8 auf den fünften Rang zurück gefallen ist. Zum Trost sei festgehalten, dass NEC zumindest in Deutschland auf Rang Eins liegt, vor der beeindruckenden IBM-Phalanx.

Seit kurzem ist in der Szene wieder von einem alten Bekannten die Rede, um den es die letzten Jahre seit der Übernahme durch SGI etwas still geworden war. Für Insider nicht ganz überraschend, landete der an den Sandia National Laboratories in den USA installierte Cray XT3 im diesjährigen weltweiten Top-Ranking an zehnter Stelle. Und während IBM nicht gerade heiß und innig von der Community geliebt wird, erfreut sich Cray wieder einer wachsenden Fangemeinde. Dies brachten auch die zahlreichen Fachvorträge auf der International Supercomputing Conference (ISC) zum Ausdruck, in denen Experten intensiv über die Lösungen aus dem Hause Cray diskutierten.

Insgesamt hat die Supercomputing ein bisschen von dem visionären Flair früherer Tage verloren, obwohl die Zahl der Teilnehmer mit über 600 gegenüber den Vorjahren noch einmal deutlich wuchs. Es ist aber kaum zu übersehen, dass die reine Rechnerleistung der Superboliden, in Heidelberg mit einem vor dem Eingang postierten Formel-1-Fahrzeug eindrucksvoll illustriert, nicht mehr wirklich im Vordergrund steht. Michael Resch, Direktor des Höchstleistungs-Rechenzentrums (HLRS) in Stuttgart, bringt es auf den Punkt: „Die Leute interessieren sich nicht mehr nur für die große Datenmenge, sondern für das kontextbezogene Computing – für den Inhalt des Simulationsergebnisses und den Bezug dieser Information zu ihrer täglichen Arbeit.“

Themenseiten: IT-Business, Supercomputing, Technologien

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

2 Kommentare zu Supercomputing: Mooresches Gesetz verliert an Bedeutung

Kommentar hinzufügen
  • Am 6. Juli 2005 um 18:07 von eifelbauer

    Zitat meines alten Informatiklehrers:
    "… aber Speicherplatz kostet ja heutzutage nix mehr"

    (Und das war 1995!)

    Andererseits musst du mal hochrechnen, was billiger ist: Die benötigte (Arbeits-) Zeit um einen perfekten, kompakten, (unwartbaren) … Code zu schreiben ODER die doppelte Menge an Rechenleistung und Speicher.

    Auf der anderen Seite: um nen Brief uaf meinem 286er zu schreiben reichte damals etwa das in MHz, was heute in GHz … naja, mit DER Aussage warte ich lieber noch 1-2 Jahre, dann Stimmts ;-)

    sanfte Grüße aus der Eifel,

    eifelbauer

    p.s.: Was waren dass noch für Zeiten, als man den Englischen Tastaturtreiber geladen hat, damit für "Indiana Jones" die fehlenden 3kB Hauptspeicher frei wurden… andererseits war es damals offensichtlich auch schon so, dasa gerade Spiele die Hardware am meisten forderten.

  • Am 4. Juli 2005 um 12:22 von MartinT

    Personal Supercomputer?!!
    Also mal ehrlich… wenn ich meinen heutigen Mittelklasse PC (AMD Athlon, 2.2GHz mit 3x256MB RAM 200 GB Festplatte und 128 MB GeForce3) mit meinem ersten Computer (C64 mit revolutionären 39kB nutzbarem Arbeisspeicher und 985 kHz Prozessorfrequenz) vergleiche denke ich, das wir für "personal Supercomputer" nicht die Hardware weiter optimieren müssen und uns 90 Prozessoren in den Keller Stellen müssen um dann damit doch nur "Pong" zu spielen…

    Man muß das aktuelle Design nur mal komplett überarbeiten und dann die vorhandene Hardware richtig nutzen. Ich habe Druckertreiber gesehen die waren so groß wie meine komplette Diskettensammlung damals…

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *